Un reciente informe puso en alerta sobre los riesgos que las herramientas de inteligencia artificial generativa, como ChatGPT, Gemini o Claude, representan para la privacidad y la seguridad de los datos personales y corporativos. El estudio Cisco 2025 Data Privacy Benchmark Study relevó la opinión de más de 2600 profesionales de la industria de la ciberseguridad y destacó las crecientes preocupaciones sobre el uso indiscriminado de estas tecnologías.

De acuerdo con los resultados de la investigación, el 64% de los encuestados expresó su temor de que se filtren datos personales o confidenciales debido al uso interno de herramientas de IA generativa en las empresas.

La privacidad y la información, bajo amenaza

Aunque plataformas como ChatGPT pueden aumentar la productividad de las empresas y los empleados, también implican riesgos significativos. Los empleados, muchas veces sin formación en ciberseguridad, ingresan datos corporativos sensibles en sistemas externos que no siempre están bajo el control de las organizaciones. Esta práctica podría resultar en la exposición no autorizada de información confidencial, lo que pone en riesgo tanto a las empresas como a los usuarios.

El informe de Cisco revela que ya han sido detectados incidentes relacionados con el uso indebido de IA en diversas empresas. En algunos de estos casos, se incluyó información sobre clientes, contratos e incluso datos confidenciales internos de la organización. El peligro, según los expertos, es que una vez que estos datos ingresan en los modelos de IA, pueden quedar al alcance de terceros debido a filtraciones o brechas de seguridad.

Además, el 69% de los participantes en el estudio expresó su preocupación por la protección de la propiedad intelectual al usar IA generativa. La posibilidad de que estrategias empresariales, algoritmos o documentos internos sean utilizados en el entrenamiento de modelos de IA sin el consentimiento de las empresas es vista como una amenaza cada vez más tangible.

La creciente necesidad de regulación

“El uso de la IA generativa sigue en aumento, pero las empresas están tratando de aprovechar sus ventajas con mucha cautela”, señala el informe. A pesar de los beneficios que estas tecnologías pueden ofrecer, las organizaciones coinciden en la necesidad de desarrollar nuevas estrategias que gestionen estos riesgos sin poner en peligro la privacidad de los datos.

Un cuarto de las organizaciones consultadas en el estudio reveló que comenzó a prohibir el uso de herramientas de inteligencia artificial generativa en el entorno laboral, mientras que otras han optado por imponer restricciones estrictas sobre los tipos de datos que pueden ingresarse en estos sistemas y qué plataformas son autorizadas para su uso.

El informe también subraya una contradicción interesante: mientras que el 90% de las organizaciones considera que el almacenamiento local es inherentemente más seguro, el 91% confía en que los proveedores globales de IA ofrecen una mejor protección de los datos.

Un futuro digital que necesita protección

La inteligencia artificial generativa ha llegado para quedarse, y su impacto en la seguridad digital y la privacidad de los datos se va haciendo cada vez más relevante. Aunque la protección de la información privada es una responsabilidad personal, la implementación de marcos éticos y legales que regulen el uso de estas herramientas es esencial para evitar que tecnologías como ChatGPT se conviertan en una amenaza para la seguridad digital.

En un mundo cada vez más interconectado y con innovaciones tecnológicas avanzando a gran velocidad, es fundamental que tanto empresas como usuarios tomen conciencia de los riesgos asociados al uso de estas plataformas y trabajen en conjunto para mitigar los peligros que representan para la privacidad y la protección de los datos.